Word abonnee

Artificial Intelligence en verzekeringen

Het gebruik van geavanceerde algoritmes zoals dat gebeurt in de toepassing van Artificiële Intelligentie (AI) speelt een steeds grotere rol in ons leven. Verzekeringen zijn daarbij geen uitzondering. Om ongewenste effecten zoals kansenongelijkheid te voorkomen, heeft de Europese Commissie een wet in voorbereiding (de Artificial Intelligence Act, of de AIA) die eisen stelt aan het gebruik van AI. Daarbij is er speciale aandacht voor verzekeraars, omdat die een soort nutsfunctie vervullen. Daardoor rijst de vraag: gaat deze wet de innovatie in de verzekeringssector beperken?

Het begrip Artificiële Intelligentie bestaat al sinds 1950 en is door Alan Turing, die de codering van de Duitse Enigma coderingsmachine in WO II kraakte, concreet gemaakt met de Turingtest: als een computer iemand voor de gek kan houden en deze kan laten geloven dat hij een mens is, dan moet de computer intelligent zijn. Onder andere in het onderwijs, waar geavanceerde algoritmes zoals ChatGPT razendsnel in opkomst zijn, leggen veel leerlingen die Turingtest aan hun leraar voor. Het blijkt dat het steeds lastiger wordt om te onderkennen of iemand zelf iets geschreven heeft of ChatGPT heeft gebruikt.

Concrete toepassingen van AI zijn in eerste instantie gezocht in de geneeskunde. Er komt immers dagelijks zoveel nieuwe informatie beschikbaar over ziektes en afwijkingen, dat niemand dat meer kan bijhouden, zelfs niet op zijn kleine specialisme. Maar computers en AI-algoritmes hebben die beperking niet. Zij kunnen alle informatie tot zich nemen en daarmee helpen betere diagnoses te stellen. Hoe zit dit eigenlijk bij verzekeraars?

Bij verzekeraars geldt ook dat de informatiestroom in hoog tempo toeneemt. Denk aan binnenkomende informatie zoals foto’s of filmpjes, maar ook aan informatie die de verzekeraar zelf wil raadplegen, zoals de precieze weercondities op de locatie en tijd van de schademelding of de schadehistorie. Verzekeraars willen snel, maar vooral goed schades afhandelen. En natuurlijk willen verzekeraars de branche gezond houden, door frauderende partijen op te sporen.

Het wordt steeds lastiger al die informatie op waarde te schatten, dus ook verzekeraars hebben in toenemende mate te maken met een overbelasting aan informatie en zijn daarmee geïnteresseerd in het gebruik van AI. Een door Accenture in 2022 uitgevoerde studie onder 128 claims executives in dertien landen bevestigt dat je toegevoegde waarde kunt verwachten van AI op de hele schadewaardeketen. Van de claims executives was overigens 50 procent nog maar in de eerste fase van AI-toepassing.

Bij verzekeraars staat AI nog in de kinderschoenen, maar de potentie is groot

In het domein van schadebehandeling zijn er in Nederland diverse gebieden waar AI al wordt gebruikt:

  • Fraudedetectie: AI kan bijdragen aan het herkennen van mogelijke frauduleuze schademeldingen door de binnenkomende claims te toetsen op rare afwijkingen, te checken of foto’s en nota’s echt zijn, et cetera. In Nederland zijn er verschillende leveranciers van anti-fraudeoplossingen voor verzekeraars die, naast regelgebaseerde detectiemechanismes, ook AI-algoritmes aanbieden.
  • Vaststellen van de schade: als eenmaal de schade is gemeld, moet het bedrag worden bepaald. Dit kan je natuurlijk doen op basis van offertes, of door een schade-expert ter plaatse te laten komen. Met AI-beeldherkenning kunnen de bedragen van bijvoorbeeld autoschades − op basis van historische gegevens − bepaald worden. Dit wordt in Nederland met name gebruikt bij ruitschades.
  • Optimaliseren en automatiseren van processen: AI is te gebruiken om de claim optimaal door het proces te leiden, gebaseerd op een vergelijking van de schademelding met vergelijkbare gevallen uit het verleden. Een aantal Nederlandse verzekeraars zet dit al in bij de afhandeling van letselschades.
  • Daarnaast zijn er nog vele toepassingen en wordt in Nederland AI bijvoorbeeld al ingezet in chatbots om callcenters van verzekeraars te ontlasten.

Schaduwkanten

Het gebruik van AI heeft echter ook schaduwkanten. Specifiek in Nederland is de toeslagenaffaire daar een voorbeeld van: op basis van een algoritme werden bepaalde mensen – naar later bleek vaak ten onrechte – verdacht van uitkeringsfraude en gedwongen terugbetalingen te doen.

Om dit soort ongewenste neveneffecten te voorkomen, heeft de Europese Commissie een wet opgesteld om de toepassing van AI te reguleren. Deze wet, die naar verwachting in 2025 ingaat, heeft een risicogebaseerde blik op AI-toepassingen.

Er zijn vier categorieën op basis van het doel, de impact en het mogelijke risico op misbruik:

  1. Verboden AI: systemen die uitbuiting en benadeling van kwetsbare groepen kunnen veroorzaken of discriminatie en/of ongelijke behandeling kunnen bewerkstelligen;
  2. Hoogrisicotoepassingen: systemen die worden gebruikt in kritieke infrastructuur, training, personeelszaken, essentiële publieke en private diensten, politie, migratie, grenscontroles en democratische processen;
  3. Systemen die het risico van manipulatie in zich dragen;
  4. Alle andere AI-systemen: alle systemen die niet in de categorie verboden, hoog risico of gevaar op manipulatie vallen.

De Artificial Intelligence Act, of de AIA, zal gehandhaafd worden op een gelijke manier als de recent van kracht geworden AVG. Boetes kunnen oplopen vanaf minimaal 10 miljoen euro of 2 procent van de jaaromzet voor het aanleveren van onjuiste gegevens aan de autoriteiten tot 6 procent van de jaaromzet of 30 miljoen euro bij gebruik van verboden praktijken.

Hoog risico

Het gebruik van AI bij verzekeraars valt waarschijnlijk in de hoogrisicocategorie, met zware eisen op het gebied van de begrijpelijkheid van de AI-algoritmes. De categorisering van het gebruik van AI binnen verzekeringen is een punt van discussie, zoals blijkt uit de elke keer wisselende categorisering van verzekeringstoepassingen: in november 2021 nam de Europese Commissie een amendement aan dat specifiek stelde dat AI-systemen die voor verzekeringsdoeleinden worden gebruikt, worden toegevoegd aan de hoogrisicocategorie. Dit betekent dat AI-applicaties gerelateerd aan het bepalen van premies, underwriting en schadebeoordelingen, moeten voldoen aan de regels die gelden voor de hoogrisicocategorie. In de laatste concepttekst van november 2022 wordt specifiek het gebruik van AI voor de toelating van verzekerden voor zorg en levensverzekeringen genoemd als hoogrisicocategorie (waarmee de andere toepassingen in verzekeringen zoals schadeafhandeling dus waarschijnlijk weer in een lagere categorie vallen).

Het is duidelijk dat het gebruik van AI binnen verzekeraars de aandacht van de regelgever heeft. De eisen waaraan hoogrisico-AI-systemen moeten voldoen, zijn op dit moment nog als principes gedefinieerd en moeten nader worden uitgewerkt. Ze lopen uiteen van documentatie, het gebruik van data en robuustheid tot transparantie voor gebruikers. Specifiek moeten gebruikers de output kunnen toepassen en op waarde kunnen schatten, zodat ze op de juiste momenten de AI-adviezen naast zich neer kunnen leggen. Dit betekent onder andere dat de gebruikers niet gaan leunen op de AI-uitkomsten, maar zelf blijven nadenken en afwijkende keuzes durven te maken.

Het is met name deze laatste eis waar tot nu toe weinig aandacht voor is geweest. En als het al gebeurde, waren de meeste pogingen om het algoritme begrijpelijk te maken gericht op de ontwikkelaars, en niet op gebruikers die verder geen notie hebben van de werking van de complexe algoritmes.

Een praktijktest

We wilden testen in hoeverre bestaande AI-toepassingen afwijken van met name de AIA-transparantie-eisen en hebben een proef opgezet. Deze proef moest toetsen in hoeverre er aan de transparantie-eisen werd voldaan tijdens door AI ondersteunde fraudedetectie bij binnenkomende claims. Daartoe werden de voorspellingen van de verschillende fraudedetectie-algoritmes vergeleken met de bewezen fraude-uitkomsten. Hieruit bleek dat het merendeel van de uiteindelijk bewezen fraudegevallen niet door de algoritmes was gezien.

Wat opvalt in deze proef is dat de schadebehandelaar zelf blijft opletten en zaken aankaart die wel degelijk frauduleus blijken te zijn, ook al zijn ze niet als zodanig door de algoritmes bestempeld. Wanneer de signalen van de fraude-algoritmes wel afgingen, werden die altijd serieus genomen, maar het leidde in slechts weinig gevallen tot bewézen fraude. Dit heeft er overigens mee te maken dat het lastig is om fraude te bewijzen; een verdenking (bijvoorbeeld vanwege een hele snelle schademelding na het afsluiten van een polis) is onvoldoende.

Vanwege mogelijke schaduwkanten stelt de Europese Commissie AI-regulering voor

De conclusie die je kunt trekken uit dit onderzoek is dat de schadebehandelaars de output van de algoritmes wel meenamen in de overwegingen, maar dat zij uiteindelijk hun eigen conclusie trokken die ook kon afwijken (bijvoorbeeld als de algoritmes geen probleem zagen). Wat dat betreft voldoet deze verzekeraar aan de AIA-transparantie-eisen. Wel bleek dat er mogelijkheden waren om de uitkomsten van de AI-algoritmes nog duidelijker te presenteren dan nu gedaan.

Dit betekent natuurlijk nog niet dat alle AI-algoritmes in Nederland aan de AIA-(transparantie-)eisen voldoen. Bovendien zal met het groeiend gebruik van AI het vertrouwen en daarmee de de rol van deze technologie toenemen.

Een valkuil van algoritmeontwikkelaars is om steeds ingewikkelder modellen te gebruiken om de realiteit beter te benaderen, met het idee dat dat leidt tot betere voorspellingen. Dit staat op gespannen voet met de gewenste transparantie vanuit de komende AIA-wetgeving.

De balans tussen extra inzichten en begrijpelijkheid speelt nu ook al in de praktijk: bij voornoemde verzekeraar was om die reden bijvoorbeeld al eerder een algoritme op non-actief gesteld, omdat deze niet navolgbaar was door de schadebehandelaars.

Conclusie

Verzekeraars doen er goed aan om bij het gebruik van AI te kijken naar de AIA-eisen. Na toetsing aan de AIA-eisen zou de conclusie kunnen zijn dat het AI-algoritme voorlopig niet gebruikt kan worden.

Gaat dit de innovatie in de verzekeringssector tot stilstand brengen? Nee, want zoals gezegd, is het sowieso goed gebruik dat de uiteindelijke gebruikers begrijpen wat ze aan de adviezen hebben en niet op de AI-uitkomsten gaan leunen. Met een goede uitleg kan de innovatie wel degelijk doorgaan.

 

Koos Quak

K. (Koos) Quak

De auteur is associate sales director bij Accenture te Amsterdam. Het onderzoek is tot stand gekomen met medewerking van Maarten de Rooij, directeur Schade Particulier bij Aegon in Den Haag.

Andere artikelen: Editie 925 - juni 2023